11.12.2025

Agaruda 三篇論文入選 EMNLP 2025 國際 AI 頂級會議 ,展現台灣研發實力


Agaruda 研究團隊於國際人工智慧頂尖會議 EMNLP 2025 (Empirical Methods in Natural Language Processing) 一舉發表三篇論文。

這次發表的成果聚焦於 AI 的「知識密度」與「推理深度」,不僅展現模型在真實情境中自我學習、自我驗證與持續演化的能力,也突顯 Agaruda 在 AI 理論與應用並進的研發實力。

EMNLP 自 1996 年創辦以來,一直被視為自然語言處理(NLP)領域最具權威與影響力的國際會議之一,致力於推動技術創新與實證研究的發展。2025 年在主議程(main conference)共收到 8,174 篇論文投稿,競爭極為激烈,最終錄取率僅為 22.16%,充分體現其在學術界的高標準與嚴謹審查機制。

PathwiseRAG  打造多維探索與整合的新世代 RAG 框架

其中,論文「PathwiseRAG:多維探索與整合框架」入選 EMNLP 主會場(Main Track)。這項研究提出一種全新的檢索增強生成(RAG, Retrieval-Augmented Generation)框架:PathwiseRAG。此框架旨在突破傳統系統的三大挑戰:跨領域知識盲區、推理碎片化與證據矛盾。

PathwiseRAG 透過「意圖感知檢索策略」降低知識盲點,運用「動態推理網路」捕捉子問題之間的依存關係,以提升推理的整體連貫性;並結合「多路徑平行探索與自適應修正」來整合潛在衝突的資訊。

此外,該模型以語義與推理維度建構查詢意圖圖,以有向無環圖(DAG)組織子問題,並於探索過程中持續調整策略。實驗結果顯示,在多項高難度基準測試中,平均準確率提升 4.9%,在複雜查詢任務上更高達 6.9%,為知識密集型推理建立動態且多維探索的新典範。

Agaruda 的 AI 研究員 Dr. Sean Huang 和與會者熱烈交流

Agaruda 的 AI 團隊主管 Liam Huang 熱心地介紹團隊的研究

Primus  專為網路安全 LLM 訓練打造的開源資料集

另一篇論文「Primus:面向網路安全大語言模型訓練的開源資料集先驅性集合」亦獲選發表於 EMNLP 主會場(Main Track)。該研究推出完整的開源資料集 Primus,專為訓練大型語言模型(LLM, Large Language Model)於網路安全情境中運作而設計。

Primus 資料集涵蓋三大訓練階段:預訓練(pre-training)、指令微調(instruction fine-tuning)與 、推理蒸餾(reasoning distillation),並特別聚焦於安全領域的自我反思(self-reflection)資料。此資料集為 AI 模型在資安應用上的可擴展性與可靠性建立了關鍵基礎,也為未來安全導向的大語言模型研究開創新方向。

智映而非勤映 推理時自我改進的強化學習代理

第三篇論文「智映而非勤映:一個於推理時自我改進的強化學習代理,無需標籤或模型更新」入選 EMNLP 產業組別(Industry Track)。該研究提出一種能於推理階段(test-time)自我提升效能的強化學習代理,無需額外標註資料或更新模型權重,即可在欄位映射(schema mapping)任務中提升準確度。

具體而言,系統能自動辨識映射中模糊或不確定的欄位,生成網路搜尋查詢以獲取外部證據,並以信心水準(confidence level)作為獎勵(reward)信號,反覆優化決策過程。這項研究展示了 AI 系統在推理階段的自我強化潛能,也為強化學習代理的應用開啟了新可能。

強化 Agaruda 數位孿生平台 Cinta 智慧化與安全性

這些研究成果也將深入應用於 Agaruda 數位孿生平台 Cinta 中,進一步強化其智慧化與安全性功能。平台將整合知識型 Agent 代理人,能根據使用者需求主動學習、分析並提供決策建議;同時導入數位資產保護機制,確保資料與內容的安全性與完整性。除此之外,系統還能將 IoT 設備的遙測資料自動進行語意映射與結構化處理,提升資料可用性。最終,平台將結合資料分析模組,自動生成可視化圖表與洞見分析報告,協助用戶快速掌握關鍵趨勢與營運狀況,打造智慧決策生態。